Your browser doesn't support javascript.
loading
Show: 20 | 50 | 100
Results 1 - 2 de 2
Filter
Add filters








Language
Year range
1.
Rev. inf. cient ; 101(3): e3807, mayo.-jun. 2022. graf
Article in Spanish | LILACS-Express | LILACS | ID: biblio-1409546

ABSTRACT

RESUMEN Introducción: El seguimiento del centro de la pupila usando imágenes de videooculografía se usa ampliamente para el diagnóstico de enfermedades del sistema nervioso. La diferencia entre el valor detectado automáticamente del centro de la pupila y el valor de referencia marcado por un especialista (anotación) determina la exactitud del diagnóstico. El proceso de anotación manual es muy laborioso, tedioso y propenso a errores humanos. Las anotaciones son esenciales para desarrollar y evaluar los algoritmos en el área de visión artificial, principalmente aquellos basados en el aprendizaje supervisado, sin embargo, existen pocas herramientas interactivas para realizar la anotación fiable del centro de la pupila. Objetivo: Desarrollar una herramienta de código abierto para anotar el centro de la pupila. Método: Se definieron los requisitos funcionales y no funcionales de la herramienta y se implementaron dos algoritmos para la anotación semiautomática del centro de la pupila basados en los métodos de ajuste de elipse y de círculo, a partir de varios puntos marcados por el especialista. Resultados: La aplicación software, denominada PUPILA, fue desarrollada en Python, desde marzo de 2020 a septiembre de 2020, y proporciona varias funciones auxiliares que facilitan la tarea del anotador. Conclusiones: La nueva herramienta proporciona un ambiente agradable e interactivo para anotar el centro de la pupila garantizando comodidad, exactitud y reducción de subjetividades en el trabajo del especialista. Es de código abierto y multiplataforma, lo que permite su compatibilidad con diversos dispositivos y su uso gratuito. Ha permitido anotar imágenes de bases de datos públicas y otras adquiridas experimentalmente.


ABSTRACT Introduction: The tracking of the pupil center using videoculography images is widely used for the diagnosis of diseases of the nervous system. The difference between the automatically detected value of the pupil center and the reference value marked by a specialist (annotation) determines the accuracy of the diagnosis. The manual annotation process is very laborious, tedious, and prone to human error. Annotations are essential to develop and evaluate algorithms in the area of artificial vision, mainly those based on supervised learning, however, there are few interactive tools to perform reliable annotation of the center of the pupil. Objective: To develop an open source tool to annotate the center of the pupil. Method: The functional and non-functional requirements of the tool are defined and two algorithms are implemented for the semi-automatic annotation of the center of the pupil based on the ellipse and circle adjustment methods, from several points marked by the specialist. Results: The software application, called PUPILA, was developed in Python, from March 2020 to September 2020, and provides various auxiliary functions that facilitate the annotator's task. Conclusions: The new tool provides an agreeable and interactive environment to record the center of the pupil, guaranteeing comfort, accuracy and reduction of subjectivities in the specialist's work. It is open source and cross-platform, allowing it to be compatible with various devices and free to use. It has made it possible to annotate images from public databases and others acquired experimentally.


RESUMO Introdução: O rastreamento do centro pupilar por meio de imagens de vídeo-oculografia é amplamente utilizado para o diagnóstico de doenças do sistema nervoso. A diferença entre o valor detectado automaticamente do centro da pupila e o valor de referência marcado por um especialista (anotação) determina a precisão do diagnóstico. O processo de anotação manual é muito trabalhoso, tedioso e propenso a erros humanos. As anotações são essenciais para desenvolver e avaliar algoritmos na área de visão artificial, principalmente aqueles baseados em aprendizado supervisionado, porém, existem poucas ferramentas interativas para realizar anotação confiável do centro do aluno. Objetivo: Desenvolver uma ferramenta de código aberto para anotar o centro da pupila. Método: Foram definidos os requisitos funcionais e não funcionais da ferramenta e implementados dois algoritmos para a anotação semiautomática do centro da pupila com base nos métodos de ajuste de elipse e círculo, a partir de vários pontos marcados pelo especialista. Resultados: O aplicativo de software, denominado PUPILA, foi desenvolvido em Python, no período de março de 2020 a setembro de 2020, e disponibiliza diversas funções auxiliares que facilitam a tarefa do anotador. Conclusões: A nova ferramenta proporciona um ambiente legais e interativo para registrar o centro do aluno, garantindo conforto, precisão e redução de subjetividades no trabalho do especialista. É de código aberto e multiplataforma, permitindo que seja compatível com vários dispositivos e de uso gratuito. Tornou possível anotar imagens de bancos de dados públicos e outros adquiridos experimentalmente.

2.
Medisur ; 20(2)abr. 2022.
Article in Spanish | LILACS-Express | LILACS | ID: biblio-1405897

ABSTRACT

RESUMEN Fundamento: la detección y clasificación precisa del cáncer de mama mediante el diagnóstico histopatológico es de vital importancia para el tratamiento efectivo de la enfermedad. Entre los tipos de cáncer de mama, el carcinoma ductal invasivo es el más frecuente. El análisis visual de las muestras de tejido en el microscopio es un proceso manual que consume tiempo y depende del observador. Sin embargo, en muchos países, incluido Cuba, es escaso el uso de herramientas software para asistir el diagnóstico. Objetivo: desarrollar una herramienta software para detectar tejido de cáncer de mama, del subtipo carcinoma ductal invasivo, en imágenes histopatológicas. Métodos: la herramienta se implementó en Python e incluye métodos de detección de carcinoma ductal invasivo en imágenes histopatológicas, basados en algoritmos de extracción de características de color y textura en combinación con un clasificador de bosques aleatorios. Resultados: la herramienta de código abierto brinda una serie de facilidades para la lectura, escritura y visualización de imágenes histopatológicas, delineación automática y manual de zonas cancerígenas, gestión de los datos diagnósticos del paciente y evaluación colaborativa a distancia. Fue evaluada en una base de datos con 162 imágenes de pacientes diagnosticados con carcinoma ductal invasivo y se obtuvo una exactitud balanceada de 84 % y factor F1 de 75 %. Conclusiones: la herramienta permitió un análisis interactivo, rápido, reproducible y colaborativo mediante una interfaz gráfica sencilla e intuitiva. En versiones futuras se prevé incluir nuevos métodos de aprendizaje automático incremental para el análisis de imágenes histopatológicas digitales.


ABSTRACT Background: the accurate detection and classification of breast cancer through histopathological diagnosis is of vital importance for the effective treatment of the disease. Among the types of breast cancer, invasive ductal carcinoma (IDC) is the most common. Visual analysis of tissue samples under the microscope is a manual, time-consuming and observer-dependent process. However, in many countries, including Cuba, the use of software tools to assist diagnosis is scarce. Objective: to develop a software tool to detect IDC subtype breast cancer tissue in histopathological images. Methods: the tool is implemented in Python and includes IDC detection methods in histopathological images, based on algorithms for extraction of color and texture features in combination with a random forest classifier. Results: the open source tool provides a series of facilities for the reading, writing and visualization of histopathological images, automatic and manual delineation of cancer areas, management of patient diagnostic data and collaborative remote evaluation. It was evaluated in a database with 162 images of patients diagnosed with IDC, obtaining a balanced accuracy of 84 % and a F1 factor of 75 %. Conclusions: the tool allowed an interactive, fast, reproducible, precise and collaborative analysis through a simple and intuitive graphical interface. Future versions are expected to include new incremental machine learning methods for the analysis of digital histopathology images.

SELECTION OF CITATIONS
SEARCH DETAIL